Перевод: со всех языков на английский

с английского на все языки

eines Zeichens

См. также в других словарях:

  • Bundesgesetz über die Anerkennung des Österreichischen Roten Kreuzes und den Schutz des Zeichens des Roten Kreuzes — Das Rotkreuzgesetz (RKG), mit vollständigem Titel Bundesgesetz über die Anerkennung des Österreichischen Roten Kreuzes und den Schutz des Zeichens des Roten Kreuzes, ist ein in Österreich seit dem 1. Februar 2008 geltendes Bundesgesetz, das die… …   Deutsch Wikipedia

  • Überraschungswert — Der Begriff der Information, wie er in der Informationstheorie nach Shannon[1] verwendet wird, ist streng von dem gewöhnlichen Gebrauch dieses Begriffes zu unterscheiden. Insbesondere darf darin die Information nicht mit dem Begriff der Bedeutung …   Deutsch Wikipedia

  • Informationsdichte — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… …   Deutsch Wikipedia

  • Informationsentropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… …   Deutsch Wikipedia

  • Maximale Entropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… …   Deutsch Wikipedia

  • Maximalentropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… …   Deutsch Wikipedia

  • Shannon-Entropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… …   Deutsch Wikipedia

  • Shannonentropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… …   Deutsch Wikipedia

  • Zeichen — Ein Zeichen ist im weitesten Sinne etwas, das auf etwas anderes zeigt. Zeichentheoretiker sehen darin ein semiotisches Phänomen und bestimmen im engeren Sinne Zeichen als eine Unterklasse dieses Phänomens. Dort stehen Zeichen anderen semiotischen …   Deutsch Wikipedia

  • Bedeutung (Philosophie) — Bedeutung ist ein grundlegender Begriff in der Linguistik und Sprachphilosophie. Wichtig ist der Begriff auch in der Informatik, der Forschung zur Künstlichen Intelligenz und in den Kognitionswissenschaften. Es gibt verschiedene Ansätze zur… …   Deutsch Wikipedia

  • Bedeutung (Sprachphilosophie) — Bedeutung ist ein grundlegender Begriff in der Linguistik und Sprachphilosophie. Wichtig ist der Begriff auch in der Informatik, der Forschung zur Künstlichen Intelligenz und in den Kognitionswissenschaften. Inhaltsverzeichnis 1 Ansätze zur… …   Deutsch Wikipedia

Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»